AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决"骑士与骗子"逻辑谜题

受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决"骑士与骗子"逻辑谜题

受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决"骑士与骗子"逻辑谜题

本文深入解析一项开创性研究——"Logic-RL: Unleashing LLM Reasoning with Rule-Based Reinforcement Learning",该研究通过基于规则的强化学习技术显著提升了语言模型的推理能力。微软亚洲的研究团队受DeepSeek-R1成功经验的启发,利用结构化的逻辑谜题作为训练场,为模型创建了一个可以系统学习和改进推理技能的环境。

来自主题: AI技术研报
6192 点击    2025-02-26 09:56
喝点VC|a16z访谈Rasa创始人:我们没有幻觉的风险,没有提示注入和劫持等风险

喝点VC|a16z访谈Rasa创始人:我们没有幻觉的风险,没有提示注入和劫持等风险

喝点VC|a16z访谈Rasa创始人:我们没有幻觉的风险,没有提示注入和劫持等风险

我们现在使用 LLM 来处理所有的理解工作,并确保我们不会向用户发送任何生成文本,这样我们就可以完全自信地说,我们没有幻觉的风险,没有提示注入和劫持等风险。

来自主题: AI资讯
6148 点击    2025-02-23 16:11
基于 LLM 的查询扩展:信息更全,搜索更准

基于 LLM 的查询扩展:信息更全,搜索更准

基于 LLM 的查询扩展:信息更全,搜索更准

最初,查询扩展是为那些靠关键词匹配来判断相关性的搜索系统设计的,比如 tf-idf 或其他稀疏向量方案。这类方法有些天然的缺陷:词语稍微变个形式,像 "ran" 和 "running",或者 "optimise" 和 "optimize",都会影响匹配结果。虽然可以用语言预处理来解决一部分问题,但远远不够。技术术语、同义词和相关词就更难处理了。

来自主题: AI技术研报
7133 点击    2025-02-21 08:50
物理直觉不再是人类专属?LeCun等新研究揭示AI可如何涌现出此能力

物理直觉不再是人类专属?LeCun等新研究揭示AI可如何涌现出此能力

物理直觉不再是人类专属?LeCun等新研究揭示AI可如何涌现出此能力

在当今的 AI 领域,图灵奖得主 Yann LeCun 算是一个另类。即便眼见着自回归 LLM 的能力越来越强大,能解决的任务也越来越多,他也依然坚持自己的看法:自回归 LLM 没有光明的未来。

来自主题: AI技术研报
6995 点击    2025-02-20 16:55
2024-arXiv-FinRobot: 一种基于大语言模型的开源金融应用 AI 智能体平台

2024-arXiv-FinRobot: 一种基于大语言模型的开源金融应用 AI 智能体平台

2024-arXiv-FinRobot: 一种基于大语言模型的开源金融应用 AI 智能体平台

随着金融机构和专业人士越来越多地将大语言模型(LLMs)纳入其工作流程中,金融领域与人工智能社区之间依然存在显著障碍,包括专有数据和专业知识的壁垒。本文提出了 FinRobot,一种支持多个金融专业化人工智能智能体的新型开源 AI 智能体平台,每个代理均由 LLM 提供动力。

来自主题: AI技术研报
7017 点击    2025-02-20 11:33
人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率

人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率

人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率

「慢思考」(Slow-Thinking),也被称为测试时扩展(Test-Time Scaling),成为提升 LLM 推理能力的新方向。近年来,OpenAI 的 o1 [4]、DeepSeek 的 R1 [5] 以及 Qwen 的 QwQ [6] 等顶尖推理大模型的发布,进一步印证了推理过程的扩展是优化 LLM 逻辑能力的有效路径。

来自主题: AI技术研报
3956 点击    2025-02-10 17:04
DeepSeek用的GRPO占用大量内存?有人给出了些破解方法

DeepSeek用的GRPO占用大量内存?有人给出了些破解方法

DeepSeek用的GRPO占用大量内存?有人给出了些破解方法

自 DeepSeek-R1 发布以来,群组相对策略优化(GRPO)因其有效性和易于训练而成为大型语言模型强化学习的热门话题。R1 论文展示了如何使用 GRPO 从遵循 LLM(DeepSeek-v3)的基本指令转变为推理模型(DeepSeek-R1)。

来自主题: AI技术研报
5727 点击    2025-02-07 16:53
万字长文解读Scaling Law的一切,洞见LLM的未来

万字长文解读Scaling Law的一切,洞见LLM的未来

万字长文解读Scaling Law的一切,洞见LLM的未来

近日,资深机器学习研究科学家 Cameron R. Wolfe 更新了一篇超长的博客文章,详细介绍了 LLM scaling 的当前状况,并分享了他对 AI 研究未来的看法。

来自主题: AI技术研报
5989 点击    2025-02-02 17:39
原来,这些顶级大模型都是蒸馏的

原来,这些顶级大模型都是蒸馏的

原来,这些顶级大模型都是蒸馏的

「除了 Claude、豆包和 Gemini 之外,知名的闭源和开源 LLM 通常表现出很高的蒸馏度。」这是中国科学院深圳先进技术研究院、北大、零一万物等机构的研究者在一篇新论文中得出的结论。

来自主题: AI技术研报
7813 点击    2025-01-29 13:26
跟硅谷的核心AI公司聊完后,得到了这 60 条关键洞察

跟硅谷的核心AI公司聊完后,得到了这 60 条关键洞察

跟硅谷的核心AI公司聊完后,得到了这 60 条关键洞察

对 LLM 来说,Pre-training 的时代已经基本结束了。视频模型的 Scaling Law,瓶颈还很早。具身智能:完全具备人类泛化能力的机器人,在我们这代可能无法实现

来自主题: AI资讯
6746 点击    2025-01-24 12:57